ML Error Calculator

Login atu asesu sistema kalkulador error

Demo Kredensial:

Username: estudante Password: backprop123
Username ka password sala!
ML Error Calculator
  • Iniciu
  • Tipu Error
  • Solusaun
  • Simulador

Error Calculation

Komprende oinsá atu sukat no minimiza erro iha Machine Learning

Erro mak diferença entre output model (ŷ) ho valor real (y). Objetivu prinsipal: minimiza erro atu model bele predíz ho di'ak.

Tipu Error iha Machine Learning

Loss functions ne'ebé uza atu sukat model nia desempeñu

Mean Absolute Error (MAE)

MAE = (1/n) Σ |y - ŷ|

Kalkula média husi erro absolutu. La sensivel ba outlier.

Problema: Gradiente la kontinuu iha zero, dificulta otimizasaun.

Mean Squared Error (MSE)

MSE = (1/n) Σ (y - ŷ)²

Kuadradu diferensa, penaliza erro boot liu.

Problema: Sensitivu tebes ba outlier (dadus ekstrimu).

RMSE

RMSE = √(MSE)

Interpretasaun iha unidade hanesan ho target.

Cross-Entropy

CE = -Σ y log(ŷ)

Uza ba klasifikasaun, kompara distribuisaun probabilidade.

Hinge Loss

HL = max(0, 1 - y·ŷ)

Uza ba SVM, klasifikasaun binária.

Huber Loss

Kombina MAE ho MSE

Solusaun ba problema outlier: MAE ba erro boot, MSE ba erro ki'ik.

Problema Error no Solusaun Backpropagation

Oinsá backpropagation ajuda minimiza erro

Problema Error

1
Vanishing Gradient

Gradiente sai ki'ik tebes durante backpropagation, layer anterior la aprende.

Solusaun: Uza ReLU activation, batch normalization.
2
Exploding Gradient

Gradiente sai boot tebes, peso instavel.

Solusaun: Gradient clipping, reduz learning rate.
3
Overfitting

Erro treinu ki'ik maibé erro test boot.

Solusaun: Regularizasaon L1/L2, dropout, early stopping.
4
Local Minima

Gradient descent hetan minimum lokal, la to'o global.

Solusaun: Momentum, Adam optimizer, learning rate scheduling.

Solusaun Backpropagation

1
Forward Pass

Input > Layer > Output. Kalkula output model.

z = w·x + b
a = activation(z)
ŷ = a_output
2
Kalkula Erro (Loss)

Uza loss function atu sukat diferença.

Loss = MSE(ŷ, y) = ½(ŷ - y)²
3
Kalkula Gradiente (Backward)

Derivada husi loss relasaun ba peso.

∂L/∂w = (∂L/∂ŷ) · (∂ŷ/∂z) · (∂z/∂w)
4
Atualiza Peso

w = w - η · ∂L/∂w

η = learning rate (ex: 0.01)

5
Itera to'o Converge

Repete passu 1-4 ba epoch barak to'o erro mínimu.

Simulador Error Interativu

Prátika kalkula erro no haree backpropagation nia efeitu

Konfigurasaun

0 0.5 2
0.01 0.10 0.50

Resultadu

Fórmula: output = w × x

Loss (MSE) = ½(target - output)²

> Simulador pronto.
Ajusta parâmetru no klik "Kalkula Erro"
Informasaun:

MSE boot > model presiza ajustamentu. Backpropagation atu atualiza peso hodi redús erro. Gradiente: ∂L/∂w = -(target - output) × x

MSE Tun

Erro tun signifika model aprende

Gradiente

Indika direksaun atu ajusta peso

Iterasaun

Repete to'o konvergénsia

Error Calculation ML

Aprende kona-ba error iha machine learning no oinsá backpropagation ajuda minimiza.

© 2024 Error Calculation. Estudante sira nia projetu.


Designed ho dedikasaun ba komprende Error iha Backpropagation